La loi de Goodhart, du nom de l'économiste Charles Goodhart qui l'a formulée pour la première fois en 1975 en prenant comme exemple la politique monétaire anglaise, indique que « lorsqu'une mesure devient un objectif, elle cesse d'être une bonne mesure »[1], car elle devient sujette à des manipulations, directes (trucage des chiffres) ou indirectes (travailler uniquement à améliorer cette mesure)[2],[3]. Formulée autrement, elle devient :
«Toute régularité statistique observée a tendance à perdre toute crédibilité dès lors qu'elle est mise sous tension à des fins de contrôle».
La loi de Goodhart est considérée comme une application de la loi de Campbell.